在安裝支援cuda加速的pytorch時,出現下面錯誤"WARNING: You are using pip version 21.2.4; however, version 23.2 is available. You should consider upgrading via the 'C:\AI\Whisper\venv\Scripts\python.exe -m pip install --upgrade pip' command."請問要怎麼解決呀?
時間單位只有秒的情況,根據 linto-ai 的說法: " Also the timestamp precision of Whisper models tend to be rounded to 1 second (as in many video subtitles), which is too inaccurate for words, and reaching a better accuracy is tricky. " 確實有點麻煩。你可以試試GitHub上面的幾個repo, m-bain / whisperX jianfch / stable-ts linto-ai / whisper-timestamped 我是用 whisper-timestamped 除了第一個chunk(大概前30秒)時間標記(Timestamp)還是對不準,後面的基本都正確。
請問安裝whisper報錯,如何解決呢 (venv) D:\AI\Whisper>pip install -U openai-whisper ERROR: Exception: Traceback (most recent call last): File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\cli\base_command.py", line 173, in _main status = self.run(options, args) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\cli eq_command.py", line 203, in wrapper return func(self, options, args) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\commands\install.py", line 315, in run requirement_set = resolver.resolve( File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal esolution esolvelib esolver.py", line 94, in resolve result = self._result = resolver.resolve( File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor esolvelib esolvers.py", line 472, in resolve state = resolution.resolve(requirements, max_rounds=max_rounds) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor esolvelib esolvers.py", line 341, in resolve self._add_to_criteria(self.state.criteria, r, parent=None) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor esolvelib esolvers.py", line 172, in _add_to_criteria if not criterion.candidates: File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor esolvelib\structs.py", line 151, in __bool__ return bool(self._sequence) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal esolution esolvelib\found_candidates.py", line 140, in __bool__ return any(self) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal esolution esolvelib\found_candidates.py", line 128, in return (c for c in iterator if id(c) not in self._incompatible_ids) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal esolution esolvelib\found_candidates.py", line 29, in _iter_built for version, func in infos: File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal esolution esolvelib\factory.py", line 272, in iter_index_candidate_infos result = self._finder.find_best_candidate( File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 851, in find_best_candidate candidates = self.find_all_candidates(project_name) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 798, in find_all_candidates page_candidates = list(page_candidates_it) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\sources.py", line 134, in page_candidates yield from self._candidates_from_page(self._link) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 758, in process_project_url html_page = self._link_collector.fetch_page(project_url) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 490, in fetch_page return _get_html_page(location, session=self.session) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 400, in _get_html_page resp = _get_html_response(url, session=session) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 115, in _get_html_response resp = session.get( File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor equests\sessions.py", line 555, in get return self.request('GET', url, **kwargs) File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal etwork\session.py", line 454, in request return super().request(method, url, *args, **kwargs) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor equests\sessions.py", line 542, in request resp = self.send(prep, **send_kwargs) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor equests\sessions.py", line 655, in send r = adapter.send(request, **kwargs) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\cachecontrol\adapter.py", line 53, in send resp = super(CacheControlAdapter, self).send(request, **kw) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor equests\adapters.py", line 439, in send resp = conn.urlopen( File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connectionpool.py", line 696, in urlopen self._prepare_proxy(conn) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connectionpool.py", line 964, in _prepare_proxy conn.connect() File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connection.py", line 359, in connect conn = self._connect_tls_proxy(hostname, conn) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connection.py", line 500, in _connect_tls_proxy return ssl_wrap_socket( File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\util\ssl_.py", line 453, in ssl_wrap_socket ssl_sock = _ssl_wrap_socket_impl(sock, context, tls_in_tls) File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\util\ssl_.py", line 495, in _ssl_wrap_socket_impl return ssl_context.wrap_socket(sock) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 500, in wrap_socket return self.sslsocket_class._create( File "C:\Users\Administrator\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 997, in _create raise ValueError("check_hostname requires server_hostname") ValueError: check_hostname requires server_hostname
hi, i got the same issue. I think its encountering the problem while downloading data. U may just try "pip install -U openai-whisper" this step again and again. Its my solution. hope it works for you.
@@rileylin-dn9ei depends on the internet between your PC and server. In my place, I tried it more than 8times. In my company, I just tried it one time and it works.
順帶提一下
這集影片適用Whisper的small模型生成字幕
然後再做修改的喔~~~
請問 預備辨識的檔案應該放在哪? 我放在WHISPER資料夾內,但是他一直顯示該檔案並不存在...感恩解惑
路徑是相對於cmd目前的路徑
如果不確定要放哪
也可以直接填檔案的完整路徑位置
@@the_walking_fish 感謝解惑,終於開始動了,但是用CPU跑真的好慢啊...
这么复杂,有没有更简单粗暴直接的方法?
你是我見過將專業內容說得最好的主持人,被你圈粉了。
終於發現一寶藏
想請問按照影片的方法候divice 還是cpu 沒有變為Cuda 是什麼原因呢~ 謝謝老師
可以試試看我留言的方法,我剛成功了!
@@q1234886留言在哪?
這都是一句或一段的字幕. 有沒有逐字的軟體? 每一個字所佔的時間有長有短, 像卡拉一樣. 如果有,可否介紹?
逐字的話 WhisperX 應該可以滿足你的需求
@@the_walking_fish Try and thanks.
謝謝分享!後面來試試看🥰
以前都是用剪映這款軟體上字幕匯出修改,看來現在有新的選擇可以考慮了///
推詳細教學 另外推薦開源的 buzz 給需要的人
你好jerry打擾了, 我想問下那個 --output的指令應該怎麼使用,你可以舉個例子嗎🤗謝謝
耶!謝謝分享~
感謝好檸檬帶給我們這麼多實用知識!!!
請問依照描述欄步驟還是無法讓Whisper 使用GPU,請問是Whisper認不到CUDA的toolkit?
我也是😂
我也是
我也是啊,沒辦法改成cuda
請問我在命令提示字元輸入指令後,為何會自動撥放影片??(9:28處的步驟),第一次啟動卻沒有下載
请教下,已经安装了,想删除whisper该如何操作?
請問一下 我使用Large模型時會CMD會跳出"mel_128" is not in archive
這是甚麼問題 要怎麼解決呢
非常好,爱来自中国。
試了兩三次 但是斷句跟字幕有些部分會很奇怪
像斷句斷很奇怪地方,或是字幕有一大段都在重複
有些是空景的部分有些是有講一小段詞語,但全被同一個字幕重複使用
結果還是用回剪映QAQ
07:18 請問一下為什麼創建 python -m venv .\venv 後面會跑出"存取被拒"
教學好仔細喔~
好奇如果講話裡面同時有中文、英文、數字會怎樣?有支援嗎?
目前看起來應該是有一定程度支援的
像是我影片中有夾雜一些英文單字或詞句
大多數時候Whisper都可以辨識出來
想請問一下為什麼large或V1或更大的模型都會出錯?
不管是中文日文英文都會出錯
FFmpeg下載後要解壓縮,出現需輸入密碼。請問要在那裡找到密碼?
想請問您的剪輯軟體是什麼呢?翻了留言和其他影片簡介沒有看到,或是我沒有翻到!!再麻煩您解
@@tozpan6666 我是用aviutl
頻主你好,我照你影片的話作,卡在5分51處的位置,我是用windows 7系統的,我點patch,然後點編輯後,出現的畫面跟你說的很不一樣。
whisper说不支持给定的URL的字节流类型怎么办
這麼多 Whisper,要用 Whisper Desktop 或 Whisper JAX(但無法導出srt) 或OpenAI Whisper ? 我現在用Whisper Desktop medium,但速度奇慢,我已是最新Asus d700te 商務機,但只用 gpu,是否應下載 PyTorch ? 或打開 NVIDIA GPU。 我昨曾經下載 Anaconda PowerShell Prompt 安裝 Chocolatey、ffmpeg、Whispe,發現超級不方便。謝謝
@@168251888 openai whisper就是最基本的版本,沒有什麼優化,目前不建議直接使用
WhisperDesktop 使用了 whisper cpp,大部分電腦都可以直接使用,不需要安裝PyTorch,且不會佔多少記憶體,但精準度有微幅下降
其他還可以考慮使用 faster-whisper 這個基本上是速度快,也不會佔用多少vram的不錯的選擇
以上提供你參考
感謝分享 看影片感覺好簡單, 但實際操作就感到有些無所適從,比較好奇的是魚大的程式碼都直接在CMD,不用再去特殊寫個python執行嗎? whisper API看openAI官網是要收費的,不過魚大執行的好像不用錢? 這還有需要設定API key嗎? 謝謝
這個是用自己電腦跑
不需要API key
@@the_walking_fish 感謝說明 不過還真的有點讓人搞混 因為openAI官網whisper API 好寫也是要寫成是去跑耶,是說即使是無課用戶產生的API key 也是要收費嗎?
請問如果不使用了,怎麼刪除安裝了的python、FFmpeg呢?
你好,我发现虚拟环境装不上gpu,按照chatgpt的方法,新的驱动,cuda与cudnn都是12,116和121的torch都试过了,还是不行。重新创建的虚拟环境也是找不到gpu
喜欢视频的配音,请问这个视频的配音是用什么软件做的?
手機錄音+Adobe Podcast後製
@@the_walking_fish 非常感谢
好用的教程
這軟體使用起來太累了,要是直接作好視窗介面,就像WINDOWS系統一樣,點圖示就能生成字幕就好了,就像我現在用的pyTranscriber軟體這樣,只是目前pyTranscriber的準確率實在太低了。
mac whisper 目前是這樣
我設定用cuda跑成功,也跑得完,但是我看工具管理員,GPU工作還是不超過10%,CPU也沒超過10%。這是正常的嗎?是只有專屬GPU的記憶體會工作而已嗎?
AMD的顯卡有其它方式可以讓它支援嗎?
抱歉!!!我安裝完成了,下一步驟想用在我的影片進行語音辨識,我該怎麼做???
您好,
可詢問您,我的音檔都相當的大(3小時多),前面轉了3個都很成功,到了第四個,不曉得為什麼,只有前一小時的內容有成功轉出,後面全部都沒有......,這可能是哪方面的問題呢? 非常感謝您~
有時候當音檔中間有一段較長的空白
會有機率後面的字幕全爆
這個應該是Whisper的問題
WARNING: You are using pip version 21.2.4; however, version 23.0.1 is available. 請問出現這段版本的問題要如何解決
@Ides Arashi 要在哪一個介面或是程式裡面輸入這個指令呢?我有輸入過,但是都沒反應。抱歉我是程式小白
老師我用的是nvida 3070,已經跟你的方法重新安裝cuda,但是default只能用cpu,有其它解決方法嗎
我1660 super ,跟你一樣的問題
3070TI,同樣問題,不可使用GPU,嘗試2變卸載後重新安裝,依舊只可CPU處理,不可GPU。執行命令時加上cuda就報錯。
7:21 開啟虛擬指令
能否增加纯英文的模型?
已按讚,感謝分享。
P.S: error 英文單字發音怪怪的
因為那不是怪怪的
是念錯QAQ
這部片太長了
錄到後面都不知道自己在念什麼
在安裝支援cuda加速的pytorch時,出現下面錯誤"WARNING: You are using pip version 21.2.4; however, version 23.2 is available.
You should consider upgrading via the 'C:\AI\Whisper\venv\Scripts\python.exe -m pip install --upgrade pip' command."請問要怎麼解決呀?
不用理会
@@hank.s6281 但是就只能用cpu 跑了餒
"WARNING: You are using pip version 21.2.4; however, version 23.2 is available."
這個可以輸入 python -m pip install --upgrade pip
您好 我使用whisper -language zh,產生的字幕檔案,有出現簡體字,我不知道為什麼?可以請您幫忙嗎?謝謝
這是Whisper的問題
目前沒法解決
你好 如果是放在D槽的話呢? 是不是ffmpeg-version前面要改成D:\這樣嗎?
如果有成功將ffmpeg加到環境變數的話
不用改cmd路徑就可以使用ffmpeg了
@@the_walking_fish 好的 谢谢
想問爲什麽 我的divice 還是cpu 沒有變為Cuda
我也遇到這個問題
太贴心了❤
請問這個有辦法翻閩南語嗎
目前應該是沒有
因為電腦還停留在windows7不能安裝Python 3.9.9,請問Python 較舊的版本可以嗎??
應該是可以的
只是要注意一下版本
根據GitHub上所述
Whisper最低支持到Python 3.8
請問翻譯的時候輸出都是從00秒開始,但前面應該會有前奏,還有時間上我的最小基數是秒數,沒有後面的小數點,請問能改嗎?
時間單位只有秒的情況,根據 linto-ai 的說法:
" Also the timestamp precision of Whisper models tend to be rounded to 1 second (as in many video subtitles), which is too inaccurate for words, and reaching a better accuracy is tricky. "
確實有點麻煩。你可以試試GitHub上面的幾個repo,
m-bain / whisperX
jianfch / stable-ts
linto-ai / whisper-timestamped
我是用 whisper-timestamped
除了第一個chunk(大概前30秒)時間標記(Timestamp)還是對不準,後面的基本都正確。
ffmpeg 下載的伺服器不太行 下載不了
請問cmd裝完Whisper 最後有顯示一串done 可是接續打 whisper --help 就顯示不是內部或外部命令 可執行的程式或批次檔改如何解決呢
如果你有曾經直接(沒在虛擬環境內)安裝whisper
可以試試看不開虛擬環境
直接打pip uninstall openai-whisper
把之前直接裝的檔案清掉
這算是一個有機率發生的bug
如果直接裝失敗
虛擬環境也有機率被那些檔案卡到
然後裝不起來
只是不確定你是不是因為這個原因沒裝起來
可以先試試看
@@the_walking_fish 請問假設我不是用虛擬的 我要輸出的檔案 是要放在哪個資料夾呢 他這次輸出完是顯示 No such file or directory🤣
@@櫻花下 要看cmd目前所在的路徑
請問一下,如果跳掉,要刪除C磁碟空間未跑完的檔案,去哪邊刪除?
模型檔案預設會存在C槽的
【使用者】->【使用者名稱】->【.cache】
裡面
@@the_walking_fish 感謝,終於釋放了,模型檔案可改成D磁碟空間嗎?
有MAC版本嗎!跪求!
顯卡不是Nvidia怎麼辦?
大佬,能不能支持简体中文啊
沒法直接設定
但有技巧可以讓它輸出簡中
只要使用一個參數 --initial_prompt
內容用簡中打上第一句話給whisper參照
之後基本上就會輸出簡中
我安裝完whisper了,可是虛擬環境裡面一直顯示找不到我的檔案。真不知道該怎麼辦。
(venv) D:\Whisper>whisper test --language zh --model tiny
(省略長串運算)
test: No such file or directory
請問該怎麼辦呢?
從你留言的資訊來看
看起來可能是沒打副檔名
@@the_walking_fish 好喔!我再試試看!會不會m4a不行啊?
@@samu8179 可以, 要打副檔名
就是说需要先把音频导出
有mac版嗎?
Python版Mac理論上可以直接用
但是不建議
如果需要在Mac上使用
可以試試看whisper.cpp
mac whisper 有的,使用中
請問安裝whisper報錯,如何解決呢
(venv) D:\AI\Whisper>pip install -U openai-whisper
ERROR: Exception:
Traceback (most recent call last):
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\cli\base_command.py", line 173, in _main
status = self.run(options, args)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\cli
eq_command.py", line 203, in wrapper
return func(self, options, args)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\commands\install.py", line 315, in run
requirement_set = resolver.resolve(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
esolution
esolvelib
esolver.py", line 94, in resolve
result = self._result = resolver.resolve(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
esolvelib
esolvers.py", line 472, in resolve
state = resolution.resolve(requirements, max_rounds=max_rounds)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
esolvelib
esolvers.py", line 341, in resolve
self._add_to_criteria(self.state.criteria, r, parent=None)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
esolvelib
esolvers.py", line 172, in _add_to_criteria
if not criterion.candidates:
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
esolvelib\structs.py", line 151, in __bool__
return bool(self._sequence)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
esolution
esolvelib\found_candidates.py", line 140, in __bool__
return any(self)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
esolution
esolvelib\found_candidates.py", line 128, in
return (c for c in iterator if id(c) not in self._incompatible_ids)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
esolution
esolvelib\found_candidates.py", line 29, in _iter_built
for version, func in infos:
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
esolution
esolvelib\factory.py", line 272, in iter_index_candidate_infos
result = self._finder.find_best_candidate(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 851, in find_best_candidate
candidates = self.find_all_candidates(project_name)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 798, in find_all_candidates
page_candidates = list(page_candidates_it)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\sources.py", line 134, in page_candidates
yield from self._candidates_from_page(self._link)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\package_finder.py", line 758, in process_project_url
html_page = self._link_collector.fetch_page(project_url)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 490, in fetch_page
return _get_html_page(location, session=self.session)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 400, in _get_html_page
resp = _get_html_response(url, session=session)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal\index\collector.py", line 115, in _get_html_response
resp = session.get(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
equests\sessions.py", line 555, in get
return self.request('GET', url, **kwargs)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_internal
etwork\session.py", line 454, in request
return super().request(method, url, *args, **kwargs)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
equests\sessions.py", line 542, in request
resp = self.send(prep, **send_kwargs)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
equests\sessions.py", line 655, in send
r = adapter.send(request, **kwargs)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\cachecontrol\adapter.py", line 53, in send
resp = super(CacheControlAdapter, self).send(request, **kw)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor
equests\adapters.py", line 439, in send
resp = conn.urlopen(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connectionpool.py", line 696, in urlopen
self._prepare_proxy(conn)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connectionpool.py", line 964, in _prepare_proxy
conn.connect()
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connection.py", line 359, in connect
conn = self._connect_tls_proxy(hostname, conn)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\connection.py", line 500, in _connect_tls_proxy
return ssl_wrap_socket(
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\util\ssl_.py", line 453, in ssl_wrap_socket
ssl_sock = _ssl_wrap_socket_impl(sock, context, tls_in_tls)
File "D:\AI\Whisper\venv\lib\site-packages\pip\_vendor\urllib3\util\ssl_.py", line 495, in _ssl_wrap_socket_impl
return ssl_context.wrap_socket(sock)
File "C:\Users\Administrator\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 500, in wrap_socket
return self.sslsocket_class._create(
File "C:\Users\Administrator\AppData\Local\Programs\Python\Python39\lib\ssl.py", line 997, in _create
raise ValueError("check_hostname requires server_hostname")
ValueError: check_hostname requires server_hostname
我也遇到了這問題,請問如何解決呢
hi, i got the same issue. I think its encountering the problem while downloading data. U may just try "pip install -U openai-whisper" this step again and again.
Its my solution. hope it works for you.
@@n3xl3j94 just try many times?How many times did you try it successfully?
@@rileylin-dn9ei depends on the internet between your PC and server.
In my place, I tried it more than 8times. In my company, I just tried it one time and it works.
是欸囉
能辨識日文,上中文字幕嗎?
目前whisper看起來只支援
將任意語言字幕
翻譯成英文
能用mp4檔案進行語音辨識嗎?
可以用mp4
我跑的時候會吃C磁碟空間,空間只有2GB,能否讓他吃D磁碟空間就好?
@@49801224 如果你說的吃硬碟空間是指下載模型的話
可以用【--model_dir】這個參數來指定模型存放位置
@@the_walking_fish 我嘗試一下
@@the_walking_fish 終於可以了,感謝您,這對我很重要,因為剪映無法翻譯西班牙語,我只能用這種方式來處理。
影片標題竟沒說支援哪個作業系統,那影片前一分鐘內是不是也要提?竟然也沒提。
沒提自然是有原因的
因為Whisper可以在Windows、Linux、MacOS上跑
基本上是能跑Python 3.8~3.10就能支援
@@the_walking_fish 一般介紹軟體都是要提支援哪個系統的,我是 WINDOWS 7有支援嗎?
@@uuhp222 之後會再注意
當初在錄這部片時
因為測試項目有點多
所以沒有加進去
至於Windows 7則是可以支援
因為Windows 7還可以安裝Python 3.8
@@the_walking_fish 照你的話作發現不行,卡在5分48秒處,windows 7沒有你影片說的那個畫面,所以我安裝ffmpeg失敗。
说的不全